如果学习组件的趋势最终超过了手工制作的版本,那么学习的优化器最终将优于SGD或ADAM等手工制作的优化器。即使学到的优化器(L2OS)最终在实践中超过手工制作的优化器,但它们仍然没有被证明是融合的,并且可能会失败。这些是这里解决的问题。目前,学习的优化器经常超过一般的手工制作的优化器(例如梯度下降),但在一段时间后,它们通常会在一段时间后平稳,而通用算法继续取得进步,并且经常超过学习算法,因为它占据了Aseop的乌龟,从而超过了野兔的野兔。 L2OS仍然很难概括分配。 Heaton等。拟议的保护L2O(GL2O)可以采用学习的优化器并使用通用学习算法进行保护,以便通过有条件地在两者之间进行切换,可以证明所得算法可以收敛。我们提出了一类新的保障L2O,称为“损失的L2O”(LGL2O),这在概念上既简单又便宜。守卫机制仅基于两个优化器的预期未来损失价值决定。此外,与GL2O和其他基准相比,我们显示了LGL2O的收敛保证和经验结果的理论证明,表明它结合了L2O和SGD的最佳状态,而实际上,它比GL2O更好地收敛。
translated by 谷歌翻译